在蓬勃发展的这二十年里,这些成就使人们对人工智能的发展过于乐观,甚至断言“二十年之内,机器将能完成人能做到的一切”。这一时期的研究经费十分充裕,且研究范围十分宽泛,并没有需要做出明确成果的要求。1963年6月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了二百二十万美元经费,用于资助MAC工程,其中包括Minsky和McCarthy五年前建立的AI研究组。此后ARPA每年提供三百万美元,直到七十年代为止。ARPA还对Newell和Simon在卡内基梅隆大学的工作组以及斯坦福大学AI项目(由JohnMcCarthy于1963年创建)进行类似的资助。另一个重要的AI实验室于1965年由DonaldMichie在爱丁堡大学建立。在接下来的许多年间,这四个研究机构一直是AI学术界的研究(和经费)中心。这期间经费几乎是无条件地提供的。时任ARPA主任的J.C.R.Licklider相信他的组织应该“资助人而不是项目”,并且允许研究者去做任何感兴趣的方向。这导致了当时无约无束的研究氛围及黑客文化的形成,但是好景不长。 当事实证明,人工智能将比原先的预期花费更多的时间来实现时,众多科技投资机构中纷纷传出了不满的流言蜚语,这一切在1973年发布的《莱特希尔报告》(Lighthill Report)中得到了明确的体现。1973年,《莱特希尔报告》针对英国AI研究状况批评了AI在实现其“宏伟目标”上的完全失败。这份报告严厉批评了人工智能领域里的许多基本研究,特别是机器人和自然语言处理等知名子领域,还重点突出了人工智能中的“组合问题”,即当变量数量增加时,涉及两个或三个变量的简单计算就会变得很棘手。而这导致了英国AI研究的低潮。由于缺乏进展,对AI提供资助的机构(如英国政府、DARPA和NRC)对无方向的AI研究逐渐停止了资助。早在1966年ALPAC(Automatic Language Processing Advisory Committee,自动语言处理顾问委员会)的报告中就有批评机器翻译进展的意味,已然预示了这一局面的来临。英国政府停止了对AI研究的资助;NRC(National Research Council,美国国家科学委员会)在拨款二千万美元后停止资助;DARPA则对卡耐基梅隆大学的语音理解研究项目深感失望,从而取消了每年三百万美元的资助。到1974年,已经很难再找到对AI项目的资助。卡内基梅隆大学移动机器人实验室主任Hans Moravec则是将批评归咎于他的同行们不切实际的预言:“许多研究者落进了一张日益浮夸的网中”。除了人们对AI研发变现遥遥无期的担忧,自从1969年Mansfield修正案通过后,DARPA被迫只资助“具有明确任务方向的研究,而不是无方向的基础研究”。60年代那种对自由探索的资助一去不复返,此后资金只提供给目标明确的特定项目,比如自动坦克,或者战役管理系统。1976年,Douglas Lenat发表博士论文An Artificial Intelligence Approach to Discovery in Mathematics as Heuristic Search,该文章描述了一个名为“AM”的程序,它模拟了初等数学研究的一个内容:在大量启发式规则的指导下开发新概念数学。一开始提供一百个非常不完整的模,每个模对应一个基本的集合概论(如并集),这就为AM探索提供了一个明确但巨大的“空间”。AM扩展了它的知识库,最终重新发现了数百个常见的概念和定理。1976年,视觉计算理论(computational theory of vision)在1976年由David Marr明确提出,奠定了计算视觉领域的基础。它包含两个领域:一个是计算机视觉(Computer Vision),一个是计算神经学(Computational Neuro science)。他的工作对认知科学(Cognitive Science)也产生了很深远的影响。1976年,Randall Davis在斯坦福大学获得人工智能博士学位,并发表文章《Applications of Meta Level Knowledge to the Construction,Maintenance and Use of Large Knowledge Bases》,此文提出:使用集成的面向对象模型是提高知识库(KB)开发、维护和使用的较为完整的解决方案。共享对象增加了模型之间的跟踪能力,增强了半自动开发和维护功能。而抽象模型是在知识库构造过程中创建的,推理则是在模型初始化过程中执行的。虽然这一时期AI研究相对停滞,但机器学习、计算机视觉、自动驾驶等人工智能领域中最为重要的现实应用开始萌芽,人们更加关注人工智能的现实应用。另一方面,这也给科研人员一个极好的警示,盲目乐观从来不是科学家对于科研对于社会应有的一个态度。同时,一些“反逻辑”研究者认为要解决计算机视觉和自然语言处理的困难问题,需要专门的方案。随着1970年出现大容量内存计算机以及知识库的构建,人们意识到许多简单的人工智能软件可能需要大量的知识。 第一个人工智能寒冬大概持续了十年。在20世纪80年代,由于专家系统的发展和日本推出的“第五代计算机计划”(采用大规模并行编程),人工智能出现了又一次繁荣。1981年,日本经济产业省拨款八亿五千万美元支持第五代计算机项目。其目标是造出能够与人对话、翻译语言、解释图像并且像人一样推理的机器。其他国家纷纷作出响应。英国开始了耗资三亿五千万英镑的Alvey工程;美国一个企业协会组织了MCC(Micro electronics and Computer Technology Corporation,微电子与计算机技术集团),向AI和信息技术的大规模项目提供资助;DARPA也行动起来,组织了战略计算促进会(Strategic Computing Initiative),其1988年向AI的投资是1984年的三倍。专家系统在这一时期开始获得赏识。1965年设计的专家系统Dendral能够根据分光计读数分辨混合物,1972年设计的专家系统MYCIN能够诊断血液传染病。专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。1980年,卡耐基梅隆大学为DEC(Digital Equipment Corporation,数字设备公司)设计了一个名为XCON的商用专家系统,这是一个巨大的成功。从投入使用到1986年之前,它每年为公司省下四千万美元。全世界的公司都开始研发和应用专家系统,到1985年它们已在AI上投入十亿美元以上,大部分用于公司内设的AI部门。同时,为之提供支持的产业应运而生,其中包括Symbolics,Lisp Machines等硬件公司和Intelli Corp,Aion等软件公司。沉寂10年之后,神经网络又有了新的研究进展。1980年日本学者Fukushima在基于感受野的概念基础之上,提出了神经认知机(Neocognitron)。神经认知机是一个自组织的多层神经网络模型,每一层的响应都由上一层的局部感受野(Local Receptive Fields)激发得到,对于模式的识别不受位置、较小形状变化以及尺度大小的影响。神经认知机可以理解为卷积神经网络的第一版,核心点在于将视觉系统模型化,并且不受视觉中的位置和大小等影响。而后,关于自动驾驶进入了实验阶段。1986年,美国卡内基梅隆大学的研究人员Dean Pomerleau花费了8年的时间,研发出了一套名叫ALVINN(Autonomous Land VehicleIna Neural Network)的无人驾驶系统,并用在了NAVLAB货车上。这辆货车从宾夕法尼亚州匹兹堡到加州圣地亚哥行驶了2797英里,成功实现了自动驾驶,成为自动驾驶的祖师爷。虽然它的技术在今天来看非常原始,但是它证明了自动驾驶是可以实现的。